Google I/O 2025完全解説: AIエージェントと新検索モードが変えるデジタル体験

2025年5月21日に開催されたGoogle I/Oでは、Googleの人工知能(AI)戦略における画期的な進展が多数発表されました。基調講演では、Googleの生成AI「Gemini」とその関連プロダクトの最新情報が中心となり、AIが単なるツールから、私たちの世界を理解し、行動するパートナーへと進化していることが示されました。本レポートでは、Google I/O 2025で発表された主要なAI技術、特にAIエージェントと検索のAIモードに焦点を当て、その詳細、技術的背景、そして広範な影響について深く掘り下げて分析します。

目次

GoogleのAI基盤:Geminiの進化とTPU「Ironwood」

GoogleのAI戦略の中核をなすのは、その基盤モデルであるGeminiの継続的な進化と、それを支えるハードウェアインフラストの強化です。

Geminiモデル群の飛躍的進歩

Googleは、基盤モデルであるGeminiの性能を大幅に向上させ、その利用を拡大しています。

Gemini 2.5 Proの性能向上

最新の主力モデルである「Gemini 2.5 Pro」は、AIモデルのベンチマーク「LMArena」で全カテゴリ1位を獲得しました 。このモデルは、単に質問に答えるだけでなく、思考プロセスを経て応答を生成する「思考モデル」として設計されています。これにより、性能と精度が向上しました 。  

特に、数学やコーディングといった複雑なタスクにおいて、その推論能力が際立っています。例えば、実験的な推論モードである「Deep Think」は、複数の仮説を検討してから応答を生成する新しい研究技術を活用しています。USAMO 2025 (数学) やLiveCodeBench (コーディング) のような困難なベンチマークで高いスコアを達成しました 。この能力は、学術的なベンチマークだけでなく、教育者からもその教育的効果と有効性が高く評価されています 。  

「Deep Think」の戦略的意義

「Deep Think」の導入は、単なる性能向上以上の意味を持ちます。AIがより多くの仮説を検討し、内部で思考を深める能力を持つことは、特に高精度が求められるエンタープライズアプリケーションにおいて重要です。複雑な技術文書作成、コーディング、さらには医療診断といった分野で、その信頼性と実用性を飛躍的に高める可能性を秘めています 。  

これは、AIが時に不正確な情報を生成する「幻覚」の問題に対する重要なアプローチであり、AI市場におけるGemini 2.5 Proの差別化要因となり得ます。初期段階では「信頼できるテスター」に限定して提供されることからも、Googleがこのフロンティア技術の安全性評価に慎重に取り組んでいる姿勢がうかがえます 。  

コンテキストウィンドウとマルチモーダリティの拡張

Gemini 2.5 Proは、100万トークンのコンテキストウィンドウを搭載しており、将来的には200万トークンへの拡張も予定されています 。この広大なコンテキストウィンドウにより、テキスト、音声、画像、動画といった多様な情報源から膨大なデータセットを理解し、複雑な問題を処理することが可能になります 。さらに、Gemini 2.5は、24言語に対応したネイティブ音声出力を備え、音声、トーン、速度、スタイルを完全に制御できるため、より自然な会話体験を提供します 。  

効率性、速度、提供範囲の拡大

速度と低コストを重視して設計された「Gemini 2.5 Flash」は、効率性が向上しました。評価において20〜30%少ないトークンで同等の品質の応答を生成できるようになっています 。これにより、推論、マルチモーダリティ、コード、長文コンテキスト処理の各ベンチマークで改善が見られます 。  

Gemini 2.5 FlashはすでにGeminiアプリで一般提供されており、Google AI StudioやVertex AIでも利用可能になる予定です。Gemini 2.5 Proも間もなくこれに続きます 。  

AI利用の劇的な増加

これらの技術的進歩は、AIの普及が加速していることを明確に示しています。昨年1ヶ月あたり9.7兆トークンであったGeminiの処理量は、現在では毎月480兆トークン(50倍の増加)に急増しました 。また、Geminiで開発を行う開発者の数は700万人を超え(5倍の増加)、Vertex AIにおけるGeminiの利用は40倍に増加しています 。Geminiアプリの月間アクティブユーザー数も4億人を超え、特に2.5シリーズモデルの利用が45%増加しました 。この劇的な利用量の増加と開発者エコシステムの拡大は、GoogleのAI戦略が市場に受け入れられ、強固な基盤を築いていることを示唆しています。これは長期的な競争優位性を確立する上で極めて重要です。  

モデル名主な焦点/ユースケース主要な性能ベンチマークコンテキストウィンドウ効率性ユニークな機能提供状況
Gemini 2.5 Pro複雑なタスク、高度な推論、コーディング、学習支援LMArena, WebDev Arena, USAMO 2025, LiveCodeBench, MMMUで首位/高スコア 100万トークン (200万トークン予定) Deep Thinkモード, ネイティブ音声出力, 高度なセキュリティ Gemini Advancedユーザー向けに提供中、Vertex AIで近日提供
Gemini 2.5 Flash速度と低コスト、効率的なワークホースモデル推論、マルチモーダリティ、コード、長文コンテキストで改善 20-30%少ないトークンで同品質応答 ネイティブ音声出力, 高度なセキュリティ Geminiアプリで一般提供中、Google AI Studio/Vertex AIで6月上旬に提供

特化型Geminiモデル:AIの適用範囲拡大

Googleは、汎用モデルの進化に加え、特定のドメインや利用環境に最適化された特化型モデル「Gemmaファミリー」を導入しました。これには、Gemma 3n、MedGemma、SignGemmaが含まれます 。  

Gemmaファミリーの導入

「Gemma 3n」は、わずか2GBのRAMで動作可能であり、ポータブルデバイスへのAI搭載を可能にします 。これは、AI機能がより多くのデバイスで利用可能になることを意味し、AIの民主化を促進する重要なステップです。  

多様なドメインへの応用

「MedGemma」は、医療分野向けの最も高性能なオープンモデルであり、マルチモーダルな医療テキストと画像理解に対応しています 。開発者はこれを基盤として、独自の医療AIアプリケーションを構築できます。  

また、「SignGemma」は、アメリカ手話を英語に翻訳できる手話理解モデルであり、聴覚障害者や難聴者の技術利用を支援することを目的としています 。さらに、Googleはイルカのコミュニケーションパターンを理解するために開発された世界初のイルカ向け大規模言語モデル「DolphinGemma」も発表しました 。  

Gemmaファミリーの導入、特にGemma 3nの低RAM要件とMedGemmaのオープンな性質は、AIの民主化とドメイン特化というGoogleの戦略を示しています 。効率的で専門的なモデルを提供することで、Googleは特定の産業(医療、アクセシビリティ、さらには海洋生物学)や、リソースに制約のあるデバイス向けにAIソリューションを構築する開発者を支援しています。これは、AIの適用範囲と有用性を汎用チャットボットの領域を超えて拡大し、より多様で影響力のあるAIエコシステムを育むことに寄与します。  

C. インフラ基盤:第7世代TPU「Ironwood」

GoogleのAI戦略を支える重要な柱は、AI処理に特化した独自開発プロセッサであるTPU(Tensor Processing Unit)の継続的な進化です。

技術仕様と性能飛躍

今回発表された第7世代TPU「Ironwood」は、前世代と比較して10倍のパフォーマンスを実現します 。各Ironwood TPUチップは4,614 TFLOPsという驚異的な性能を誇り、9,216個のチップで構成されるポッドでは、42.5 exaFLOPsという途方もない計算能力を発揮します 。これは、世界最大のスーパーコンピューターであるEl Capitanの24倍以上のパワーに相当します 。さらに、各チップには192GBのHBM(High Bandwidth Memory)が搭載され、7.2 TB/sという帯域幅を実現しており、これは前世代の6倍の速さです 。  

エネルギー効率とAIハイパーコンピューティング

Ironwoodは、その圧倒的な性能に加え、エネルギー効率にも優れています。Trilliumと比較して2倍、初代TPU v1と比較して約30倍のエネルギー効率を実現しており、これは運用コストの削減と環境負荷の低減に大きく貢献します 。このTPUは、GoogleのPathwaysシステムと深く統合されており、AIモデルのスムーズなスケーリングを可能にします 。  

GoogleがIronwood TPUのようなカスタムAIハードウェアに継続的に投資していることは、強力な垂直統合戦略を示しています 。AI推論に最適化された独自のチップを設計することで、GoogleはGemini 2.5 Proのような複雑なモデルを実行し、リアルタイムのマルチモーダルAIエージェントをサポートするために必要な基盤となる計算能力を確保しています。ハードウェア層を自社で制御することは、性能、コスト効率、そして最も深いレベルでのイノベーション能力において、大きな競争優位性をもたらします。これにより、Googleは既製のハードウェアに依存する競合他社を凌駕する可能性を秘めていると言えるでしょう。  

特徴Google Ironwood TPUNVIDIA Blackwell B200AMD Instinct MI300A
主な用途推論 (LLMs, MoE, リアルタイムAI) トレーニング & 推論 (LLMs, HPC, 生成AI) HPC & AI (トレーニング & 推論)
ピーク性能 (FP8)4,614 TFLOPs/チップ 144 PFLOPs推論/システム 1,961.2 TFLOPs/APU
メモリ容量192 GB HBM/チップ 1,440 GB 総GPUメモリ/システム 128 GB Unified HBM3
メモリ帯域幅7.2 TB/s/チップ 8 TB/s/システム 5.3 TB/s/APU
インターコネクト帯域幅1.2 TB/s 双方向ICI/チップ 最大1.8 TB/s NVLink/GPU 第4世代 AMD Infinity Fabric
電力消費非公開; Trillium比で2倍の性能/ワット 約14.3 kW/DGX B200システム 550–760 W/APU
スケーラビリティ最大9,216チップポッドで42.5 ExaFLOPs 複数DGX B200システムでのDGX SuperPOD構成 効率的なスケーリングのための統合CPU-GPU APU設計
統合GoogleのPathwaysシステムと深く統合 GB200スーパーチップでNVIDIA Grace CPUと結合 単一APUで24 Zen 4 CPUコアと228 CDNA3 GPU計算ユニットを結合
提供状況Google Cloud経由で利用可能 NVIDIAパートナー経由で利用可能 AMDパートナー経由で利用可能

AIエージェントの台頭:アシスタントから自律的パートナーへ

Google I/O 2025の主要なテーマの一つは、AIが単なる情報提供者から、ユーザーに代わってタスクを実行する「エージェント」へと進化していることです。

Project Astra:リアルタイムの「世界理解」

Google I/Oで以前発表された「Project Astra」は、AIが周囲の世界をリアルタイムで理解し、それに基づいて行動する能力を追求する研究プロジェクトです 。  

Gemini Liveへの統合と状況認識

Project Astraで開発された機能は、Geminiアプリ内の「Gemini Live」に統合されました 。これにより、Geminiはスマートフォンのカメラに映る映像や画面共有された内容をリアルタイムで解釈し、ユーザーと対話できるようになります 。この機能はすでにAndroidデバイスで利用可能であり、iOSにも展開が始まっています 。  

実証された能力と将来展望

デモンストレーションでは、Gemini Liveが自転車の修理を手伝う様子が示されました。Geminiは、マニュアルの該当ページを特定し、関連するYouTubeチュートリアルを見つけ、適切なセクションまでスクロールし、さらには近くの自転車店に電話をかけることまで提案しました 。また、視覚に障がいを持つユーザーが看板を読み上げたり、リアルタイムでナビゲーションの支援を受けたりする例も示されています 。これらのデモは、AIとの音声インタラクションがより流暢になり、遅延が減り、より共感的なものになる方向性を示しています 。  

Project Astraは、ユーザーの周囲の世界を理解し、それと対話できる「ユニバーサルAIアシスタント」の未来像を具体化するものです 。これは、スマートフォンに「第二の脳」を持つような体験であり、ウェイクワードなしで常に周囲を認識し、耳を傾けることができます 。数週間後には、Gemini Liveがカレンダー、マップ、Keep、TasksといったGoogleアプリと連携できるようになり、視覚的なコンテキストに基づいてイベントを追加するといったアクションも可能になります 。  

「世界モデルAI」ビジョンの実現

Project AstraのGemini Liveへの統合と、その「リアルタイムで継続的な知覚と対話」能力は、AIアシスタントが「常時オン」で状況認識型へと大きく転換していることを示しています。

従来の音声アシスタントがウェイクワードを必要とするのに対し、Astraはスマートフォンのカメラやマイクを通じて環境を「見て、聞いて、記憶する」ことで、インタラクションモデルを単発のコマンドから、継続的で文脈に即した協調作業へと変革します 。Googleカレンダーやマップ、Keepといったユーザーの物理的・デジタル的環境との深い連携は、AIを真にユビキタスでプロアクティブな存在にし、デジタルと物理の支援の境界線を曖昧にする可能性を秘めています。これは、Googleが提唱する「世界モデルAI」ビジョンを実現するための重要な一歩です。  

Project Mariner:ウェブインタラクションの自動化

「Project Mariner」は、Google DeepMindが開発中の実験的なAIエージェントであり、ユーザーに代わってウェブサイトを自律的に閲覧し、操作することを目指しています 。  

自律的なウェブブラウジングとタスク実行

Project MarinerはChrome拡張機能として動作し、Gemini 2.0の高度なマルチモーダル能力を活用して、テキスト、画像、コード、フォームなどを解釈し、操作します 。これにより、ユーザーはGeminiとの簡単な会話を通じて、チケットの購入、フォームの入力、オンラインショッピングといったタスクを、サードパーティのウェブサイトに直接アクセスすることなく完了できるようになります 。機密性の高い操作については、ユーザーに確認を求めることで制御が維持されます 。  

主要機能:「Teach and Repeat」メカニズム

Marinerは最大10のタスクを同時に処理するマルチタスク能力を備えています 。また、「Teach and Repeat」機能という画期的なメカニズムを搭載しており、ユーザーが一度タスクを実行する様子を示すだけで、その手順を学習し、将来的に同様のタスクに適用できるようになります 。これにより、大幅な時間短縮が期待されます。Marinerは、WebVoyagerベンチマークにおいて高い性能を示しています 。  

GeminiアプリとAIモードへの統合

Project Marinerの機能は、Geminiアプリの「Agent Mode」およびGoogle検索の「AIモード」に統合される予定です 。これにより、Geminiはユーザーに代わって、例えば「家賃1200ドルで近くにコインランドリーのある賃貸物件を探す」といったウェブ上の作業を実行するAIエージェントとして機能します 。具体的には、Zillowのようなウェブサイトで賃貸物件を探したり、見学の予約をしたり、イベントチケットを予約したりするタスクを自律的に実行できるようになります 。AIエージェントのエコシステム全体を発展させるため、エージェント同士やエージェントとサービス間の通信プロトコルも用意されます 。  

「Teach and Repeat」機能の革新性

Project Marinerの「Teach and Repeat」機能は、AIエージェントがユーザーのデモンストレーションから多段階のウェブタスクを学習し、それを繰り返して適用できるという点で、画期的な進歩です 。これは、従来のルールベースの自動化(RPA)を超え、学習コンポーネントを導入することで、複雑なウェブ自動化を非技術者にもアクセス可能にします。この技術は、個人や中小企業がプログラミングスキルなしにワークフローを効率化することを可能にし、タスク自動化を民主化する可能性があります。さらに、この機能をGeminiやAIモードに統合することで、Googleは自社のAIを強力な個人およびビジネス向け生産性ツールとして位置づけています。これにより、既存のRPAソフトウェア市場を再編し、ユーザーがウェブ上のトランザクションタスクとどのように関わるかのパラダイムを根本的に変える可能性を秘めています。  

Googleエコシステム全体でのエージェント機能

Googleは、AIエージェントの機能を特定のプロダクトに留めず、自社の広範なエコシステム全体に深く統合しようとしています。

パーソナルコンテキストの活用

Geminiは、個々人の持つ情報、いわゆる「パーソナルコンテキスト」を積極的に活用することで、よりパーソナルな機能を実現します 。例えば、過去のレストラン予約履歴から屋外席を好むことを学習し、検索結果に反映させたり、Gmailのフライト確認メールから旅行日程を理解し、それに合わせたイベントを提案したりします 。Gmailなどのサービスを連携させるかどうかは、ユーザーがオン・オフを選べるようになっています 。  

GmailのSmart Reply強化

Gmailでは既にAIを使ったSmart Reply機能が提供されていますが、これがさらに強化されます 。例えば、過去のホテル予約メールやGoogleドライブ内のメモを元に旅行の旅程を作成したり、過去の送信メールから挨拶文や口調を学習して返信を作成したりするデモンストレーションが示されました 。これらの機能は今夏にGmailユーザー向けに提供される予定です 。  

AIエージェントによるユーザー代理行動の全体像

Googleの全体的な戦略は、ユーザーに代わってタスクを実行するAIエージェントを構築することにあります。この際、ユーザーは常に制御を維持し、特に購入のような機密性の高いアクションについては明示的な確認が求められます 。Chrome、Search、GeminiアプリといったGoogleの主要なプロダクトに、これらのエージェント機能が導入され始めています 。  

Googleエコシステム全体での「パーソナルコンテキスト」の活用強化は、AIインタラクションを高度に個別化し、効率を高める可能性を秘めています 。Smart Replyが個人の口調を反映したり、旅行計画が過去の予約履歴に基づいて提案されたりする例は、その利便性を示しています。しかし、Gmail、Googleドライブ、検索履歴といった機微な個人データが深く統合されることは、重大なプライバシー懸念を引き起こします。Googleがオプトイン制御を強調しているものの、膨大な量の個人データが関与するため、ユーザーの信頼と堅牢なセキュリティ対策が不可欠です。これらの機能の成功と普及は、Googleがユーザーデータをいかに透明性高く管理し、プライバシーリスクを軽減できるかにかかっています。もし信頼が損なわれれば、規制当局の監視やユーザーの反発を招く可能性もあります。  

Google検索の再構築:AIモードの時代

Google I/O 2025の最も注目すべき発表の一つは、Google検索の抜本的な再構築であり、その中心にあるのが「AIモード」です。

AIモード:検索の新たなパラダイム

Googleは、検索体験を従来の「青いリンクのリスト」から、生成AIによる対話型のエンドツーエンドな体験へと進化させています 。  

AI概要からの進化:より深く、複雑なクエリ

Google検索には既に試験的に導入されている「AIによる概要」がさらに強化され、「AIモード」として追加されます 。この新しいモードでは、従来の検索ワードを入力するのではなく、生成AIにリクエストするように長文で問いかけることができ、Geminiによる回答が得られます 。これにより、ユーザーはより深く、複雑な多段階の質問を投げかけることが可能になります。  

展開戦略とGoogleの展望

AIモードは、まず米国のユーザーから提供が開始され、Search Labsへのサインアップは不要です 。今後数週間で、検索結果のタブやGoogleアプリの検索バーに「AIモード」のボタンが表示されるようになります 。Google検索担当副社長のLiz Reid氏は、AIモードがGoogle検索の未来であると述べています 。  

「クエリファンアウト」技術の基盤

AIモードの基盤となっているのは「クエリファンアウト」という技術です 。これは、AIがユーザーの複雑な質問を複数のサブトピックに分解し、それらのサブトピックに対して同時に多数の検索クエリを実行するものです 。これにより、従来の検索では見つけられなかった「ハイパー関連性の高いコンテンツ」をウェブの奥深くから発見し、より包括的な回答を生成することが可能になります 。AIモードは、Gemini 2.5のカスタムバージョンによって駆動されています 。  

検索アーキテクチャの根本的転換

「クエリファンアウト」技術は、Google検索の根幹をなすアーキテクチャにおける根本的な転換を示しています 。これは、単にキーワードに基づいてページをインデックス化し、ランキングする従来の方式から、AIが複雑なクエリを能動的に分解し、複数の並列サブ検索を実行し、その結果を統合してまとまりのある会話形式の回答を生成する方式への移行を意味します。この変化は、Google検索を単なるリンクのディレクトリから、深く多角的な情報検索が可能な洗練されたリサーチアシスタントへと変貌させます。この新しいアプローチは、「エンドツーエンドの検索体験」を提供することを目指しており 、ユーザーが複数のリンクをクリックして情報を収集する必要性を減らす可能性があり、ウェブトラフィックやコンテンツ消費パターンに大きな影響を与えるでしょう。  

AIモード内の高度な機能

AIモードは、単に質問に答えるだけでなく、ユーザーの意図を深く理解し、具体的なタスク実行までを支援する多様な機能を統合しています。

Deep Search:専門家レベルの調査レポート生成

Deep Searchは、AIモード内の高度な機能です。リクエストに即座に返答するのではなく、AIが数分をかけて調査し、専門家レベルのレポートを作成します 。これは、クエリファンアウト技術をさらに高度化したもので、数百件の検索を実行し、異なる情報源から情報を統合することで、引用付きの詳細なレポートを生成します 。これにより、ユーザーは何時間もの調査時間を節約できるとGoogleは主張しています 。この機能は、Google Labsの承認されたユーザー向けに提供されています 。  

Search Live:リアルタイムインタラクションによる会話型視覚検索

Search Liveは、Project Astraのリアルタイムマルチモーダル能力を検索機能に持ち込んだものです 。ユーザーはスマートフォンのカメラを通して見ているものについて、AIと音声で双方向の会話をすることができます 。例えば、プロジェクトで困っている場合、AIモードやGoogle Lensの「Live」アイコンをタップし、カメラを向けながら質問をすると、AIが学習パートナーとして概念を説明し、提案を行い、ウェブサイトや動画などのリソースへのリンクを提供します 。  

パーソナルコンテキスト統合:ユーザーデータに基づく個別化された結果

AIモードの回答には、過去の検索履歴やGmailなど連携させているサービスのデータといった個人のコンテキストが反映されます 。例えば、過去のレストラン予約の結果から屋外席を好んでいるとわかれば、その好みが回答に反映されます。また、Gmailのフライト確認メールから旅行日程を理解し、その日程に合わせたイベントが提案されることもあります 。Gmailなどのサービスを連携させるかどうかは、ユーザーがオン・オフを選べるようになっています 。このパーソナルコンテキストを反映するAIモードは、今夏より実装されます 。  

カスタムチャート&データ分析:複雑な情報の可視化

AIモードでの検索結果は、複雑なデータセットやリアルタイム情報を分析し、カスタムのグラフやチャート、その他のデータ可視化を作成することも可能になります 。特にスポーツや金融のクエリで利用可能になる予定です 。例えば、2つの野球チームのホームフィールドアドバンテージを比較するクエリに対して、AIが分析を提供し、インタラクティブなグラフを生成します 。  

強化されたショッピング体験:バーチャル試着、価格追跡、エージェント型チェックアウト

AIモードは、ショッピング体験も大幅に強化します。ユーザーは、パーソナル化された画像と製品リストの閲覧可能なパネルを見ることができます 。さらに、自分の写真をアップロードして服のバーチャル試着ができる機能や、AIエージェントによる価格追跡、そして自律的なチェックアウト機能も提供されます 。これは、GoogleがOpenAIのChatGPTのような競合他社や、従来のeコマースプラットフォームと直接競合することを示唆しています 。AIモードは、ユーザーがチケットを予約したり、レストランを予約したりする際に、複数のサイトをスキャンして最適なオプションを提示し、フォーム入力まで実行します 。  

AIモードの機能融合がもたらす変革

AIモード内のこれらの高度な機能、特にDeep Search、Search Live、パーソナルコンテキスト、カスタムチャート、そしてエージェント型チェックアウトを伴う強化されたショッピング体験は、Googleが検索の役割を根本的に変革しようとしていることを示しています 。Googleは、単なる情報検索ツールから、包括的で、能動的で、トランザクションが可能なプラットフォームへと進化しようとしています。AIがチケット予約や購入完了のような行動を直接実行できるようにすることで、Googleは単に回答を提供するだけでなく、ユーザーのタスクを直接促進する立場へと移行しています。この機能の融合は、伝統的にeコマースサイト、旅行代理店、その他のサービスプロバイダーが支配してきた領域でGoogleを直接的な競合相手として位置づけ、より多くのユーザー活動をGoogleのエコシステム内に集中させることで、デジタル経済の構造を再構築する可能性を秘めています。  

機能説明/機能性ユーザーへの主な利点提供状況/展開状況
Deep Search 複雑なクエリを数百のサブ検索に分解し、専門家レベルの引用付き調査レポートを数分で生成 長時間の調査作業を劇的に短縮し、深い情報にアクセス Google Labsの承認ユーザー向け
Search Live スマートフォンのカメラを通して見ているものについて、AIとリアルタイムで音声対話 物理的な世界に関する質問をハンズフリーで即座に解決 AIモードまたはGoogle Lensで利用可能
Personal Context Gmailや過去の検索履歴などの個人データに基づいて、検索結果を個別化 ユーザーの好みや状況に合わせた、より関連性の高い情報提供 オプトイン機能、今夏実装予定
Custom Charts & Analysis 複雑なデータセットやリアルタイム情報から、カスタムのグラフやチャートを生成 複雑なデータを視覚的に理解しやすく、迅速な分析を支援 (スポーツ、金融) AIモードで利用可能
Enhanced Shopping Experience パーソナル化された製品表示、バーチャル試着、AIエージェントによる価格追跡、自律チェックアウト 効率的な製品探索、購入プロセスの簡素化、パーソナルなショッピング体験 米国で今後数ヶ月で展開
Agentic Capabilities AIエージェントがチケット予約、レストラン予約などのタスクをユーザーに代わって実行 ウェブ上の複雑なタスクを自動化し、時間と労力を節約 GeminiアプリのAgent Mode、AIモードに実装予定

パブリッシャーと広告主への影響

Google検索のAIモードへの移行は、ウェブエコシステム、特にパブリッシャーと広告主にとって重大な影響を及ぼす可能性があります。

トラフィックリダイレクトとパブリッシャー収益への潜在的影響

AIモードが情報を検索結果内で直接統合し、会話形式で回答を提供することで、ユーザーがパブリッシャーのサイトにクリックしてアクセスするインセンティブが減少する可能性があります 。これは「ゼロクリック検索」の増加につながり、検索トラフィックに依存するパブリッシャーの広告収益に悪影響を与えることが懸念されています 。アナリストの予測では、AI概要が表示された場合のデスクトップCTRが43.9%減少する可能性や、AI応答をトリガーするクエリでのパブリッシャーRPMが30-50%減少する可能性が指摘されています 。検索トラフィックに大きく依存するパブリッシャーは、今後12〜18ヶ月で全体収益が15〜25%減少する可能性も示唆されています 。  

収益化の課題:Googleの姿勢と業界の懸念

出版業界にとって最も深刻な懸念の一つは、GoogleがAIモデルの学習やAIモードの応答生成に利用するコンテンツに対する収益分配モデルや報酬計画について沈黙を保っていることです 。パブリッシャーは実質的にGoogleのAI能力を自らのコンテンツで支えながら、ビジネスを維持するためのトラフィックを失っている状況にあります 。この収益の空白は、将来のコンテンツの多様性と品質について深刻な疑問を投げかけています 。  

AIファースト検索環境における広告戦略の適応

広告主にとっても、AIモードは新たな課題を提示します。ユーザーが会話型インターフェース内に留まる傾向が強まるため、クリック率(CTR)が低下し、クリック単価(CPC)が上昇する可能性があります 。しかし、同時に、AIモードでのクエリがより意図的で洗練されたものになる場合、広告をクリックするユーザーはコンバージョンにつながる可能性が高い、質の高いトラフィックとなる可能性も指摘されています 。広告主は、会話型AIインターフェース内で響くようなクリエイティブ資産を最適化し、ファーストパーティデータとオーディエンスセグメンテーションを活用してターゲティングを洗練させ、入札戦略を適応させる必要があります 。  

長期的な影響と独占禁止法上の懸念

AIモードがパブリッシャーと広告主にもたらす影響は、長期的に見て最も重要な意味を持つかもしれません 。もしAIモードが外部ウェブサイトへのトラフィックを大幅に削減し、かつ明確な収益分配モデルがない場合、パブリッシャーが高品質なコンテンツを作成するインセンティブが失われるという「持続不可能なサイクル」が生じる可能性があります。これは、コンテンツの統合化につながり、多様な収益源を持つ大規模なメディア企業のみが生き残り、中小規模のニッチなパブリッシャーが提供してきた豊かな多様性が失われるかもしれません 。この状況は、オープンウェブの未来、AI学習に利用される情報の品質、そしてGoogleがこれまで依存してきたコンテンツエコシステムに対する長期的な責任について、根本的な問いを投げかけています。Googleの検索支配力を考慮すると、独占禁止法上の影響も無視できません。  

検索とエージェントを超えて:広範なAIイノベーション

Google I/O 2025では、検索とAIエージェントの進化に加えて、多岐にわたるAIイノベーションが発表され、GoogleのAIが日常生活のあらゆる側面に浸透していく未来が示されました。

没入型コミュニケーション:Google Beamとリアルタイム翻訳

Googleは、遠隔コミュニケーションの質を根本的に変革する技術を発表しました。

Project StarlineからGoogle Beamへの進化:3Dビデオ会議

以前「Project Starline」として開発されていた技術が「Google Beam」として実用化されます 。これは、ディスプレイの額縁に内蔵された6台のカメラで話者を別アングルから撮影し、AIがリアルタイムで3Dモデルに変換し、相手側の裸眼立体視ディスプレイに表示するシステムです 。ミリメートル単位でほぼ完璧なヘッドトラッキングと60fpsのビデオストリーミングを誇り、まるで同じ部屋にいるかのような深く没入感のある会話体験を提供します 。HPとの協業により、2025年後半に早期顧客向けに提供される予定です 。  

Google Meetのリアルタイム音声翻訳:言語の壁を越える

Google Meetには、リアルタイム音声翻訳機能が追加されます 。テスト版として英語とスペイン語の音声翻訳が既に提供されており、今後数週間で他の言語にも展開し、企業向けには今年後半に提供される予定です 。この機能は、話者の声、トーン、さらには表情まで一致させることを目指しており、言語の壁を越えた自然で流暢な会話を可能にします 。  

遠隔コミュニケーションの再定義

Google BeamとGoogle Meetのリアルタイム音声翻訳は、単なる機能強化にとどまらず、遠隔コミュニケーションのあり方を根本的に再定義しようとするGoogleのビジョンを示しています 。Beamの3Dテレカンファレンスは「同じ部屋にいる」感覚を生み出すことを目指し、リアルタイムで表情まで再現する翻訳は言語の壁を取り払います。これらの革新は、グローバルな協業を強化し、リモートワークの摩擦を軽減し、地理的・言語的な隔たりを超えた人間関係を深める上で極めて重要であり、ビジネス運営や国際関係に大きな影響を与える可能性があります。  

生成系メディア:Imagen 4、Veo 3、Flow

Googleは、画像や動画コンテンツの生成におけるAIの能力を大幅に拡張しています。

画像生成(Imagen 4)と動画生成(Veo 3)の進化

「Imagen 4」はGoogleの最新の画像生成AIであり、最大2K解像度での高画質画像出力が可能で、画像内に描かれるテキストの精度も向上しています 。高速バージョンも提供されます 。一方、「Veo 3」は動画生成AIの最新モデルで、物理法則を理解することでより自然な生成が可能となり、効果音やセリフも映像と同期して出力されます 。これにより、映像内で創造されたものが不自然な挙動をしなくなります 。  

Flow:映画制作用統合AIツール

「Flow」は、Veo 3とImagen 4を統合し、高度な映像コンテンツを制作するための新しいツールです 。Flowではシーン単位で動画を作成でき、キャラクターや小物、背景、スタイルなどを画像で参照させることで、シーン内およびシーン間での一貫性を保つことができます 。ユーザーはカメラの動き、アングル、遠近感を制御し、既存の動画を編集・拡張することも可能です 。  

SynthID:AI生成メディアのウォーターマーク技術

これらのAIが生成したメディアを判定するために、透かし(ウォーターマーク)技術の「SynthID」が活用されています 。すでに100億を超える生成物に透かしが入れられており、画像や動画、音楽、テキストの全体または一部にSynthIDが入っているかを検出できるツールが早期テスター向けに提供開始されています 。  

コンテンツ制作の民主化と倫理的課題

Imagen 4、Veo 3、そしてFlowといった生成系メディアにおける急速な進歩は、AIがコンテンツ制作のための強力な創造的ツールとして成長していることを明確に示しています 。これは、コンテンツ制作の民主化を促進し、デザイン、広告、映画製作といった様々な産業における制作パイプラインを加速させる可能性を秘めています。しかし、同時にAI生成メディアを識別するためのウォーターマーク技術であるSynthIDへの注力は、人間が作成したコンテンツと合成メディアを区別するという、倫理的かつ社会的な重要な課題を浮き彫りにしています 。これは、誤情報の拡散を防ぎ、知的財産を保護し、デジタルコンテンツへの信頼を維持するために不可欠であり、創造的領域におけるGoogleの責任あるAI開発への積極的な姿勢を示しています。  

開発者向けAI:ツールとプラットフォーム

Googleは、開発者がAIを自らのアプリケーションに統合し、AIネイティブな体験を構築できるよう、包括的なツールとプラットフォームを提供しています。

Gemini APIとAndroid Studioの進化

「Google AI Studio」と「Gemini API」は、Geminiモデルを評価し、AIアプリケーションを構築するための最も迅速な方法として位置づけられています 。Gemini 2.5 Proはネイティブコードエディタに統合され、テキスト、画像、動画のプロンプトからウェブアプリを即座に生成できるよう最適化されています 。また、Gemini Nanoを活用した新しい「ML Kit GenAI APIs」が、オンデバイスタスク向けに提供されます 。Android Studio内の「Gemini」は、開発者の生産性を向上させるAI搭載のコーディングコンパニオンであり、エンドツーエンドのテスト作成と実行を支援する「Journeys」や、依存関係の更新を支援する「Version Upgrade Agent」がプレビューされました 。  

新ツール:Jules (非同期コードエージェント), Stitch (UIデザイン), Firebase AI Logic

「Jules」は、GitHubリポジトリと直接連携する非同期コーディングエージェントとして公開ベータ版が提供されます 。バージョンアップグレード、テスト作成、機能更新、バグ修正などのタスクを処理できます 。また、「Stitch」は、UIデザインと対応するフロントエンドコードを生成するAI搭載ツールです 。チャットを通じてデザインを対話的に調整し、CSS/HTMLやFigmaにエクスポートできます 。さらに、「Firebase AI Logic」は、Googleの生成AIモデルをクライアントアプリに直接統合することを可能にします 。Chrome 138以降では、Gemini Nanoを搭載した新しい組み込みAI API(Summarizer API, Language Detector API, Translator API, Prompt API)がChromeで利用可能になります 。  

AI開発の民主化とエコシステムの拡大

Gemini API、ML Kit GenAI、Android StudioのGemini、Jules、Stitch、Firebase AI Logicといった広範な開発者ツールとAPIの更新は、GoogleがAIネイティブなアプリケーションを構築できる開発者エコシステムの育成にコミットしていることを示しています 。ローコードソリューション(Stitch、Firebase AI Logic)、専門的なコーディングエージェント(Jules)、オンデバイスAI機能(ML Kit経由のGemini Nano)を提供することで、GoogleはAI開発の参入障壁を下げています。この戦略は、AIを多様なアプリケーションやサービスに迅速に統合することを目的としており、GoogleのAIモデルが将来のソフトウェア開発の基盤となることを確実にするものです。これにより、Googleの市場への影響力がさらに拡大すると考えられます。  

Android XR:複合現実の未来

Googleは、複合現実(XR)プラットフォーム「Android XR」の展開を通じて、AIと現実世界を融合させる未来像を提示しました。

Project Moohanと協業

Googleは、SamsungおよびQualcommと共同開発中の「Project Moohan」を含むAndroid XRプラットフォームを拡張しています 。Project Moohanは、非透過型ディスプレイを搭載するゴーグル型デバイスであり、MR/VR用途を想定しており、2025年後半に販売がアナウンスされています 。  

スマートグラスとXRデバイスのユースケース

Googleは、見た目がほぼ普通のメガネであるスマートグラスも披露しました 。これにはカメラ、マイク、スピーカーが内蔵され、「Project Astra」が統合されたGemini Liveが動作します 。このデバイスは、スマートウォッチのようなウェアラブルデバイスに近い位置づけで、一日中着用できるように設計されています 。両手で機械のメンテナンス作業をしながらAIからアドバイスを聞いたり、「先ほど飲んだカップに書かれていたコーヒーショップは?」といった過去の情報に関する質問もスムーズに行えます 。オプションのディスプレイがあれば、Geminiからの回答を音声だけでなくテキストや画像、地図で表示することも可能です 。開発パートナーとしてGentle MonsterとWarby Parkerが挙げられています 。  

ユビキタスコンピューティングへの一歩

Android XR、特にProject Moohanとスマートグラスへの注力は、AIが物理的環境にシームレスに統合されるユビキタスコンピューティングに対するGoogleの長期的なビジョンを示しています 。スマートグラスは、特に「ウェアラブルAI」への重要な一歩であり、Gemini Liveを通じて常時、ハンズフリーで状況認識型のインタラクションを可能にします 。これは、ユーザーが情報とどのように関わり、日常のタスクを実行するかを根本的に変える可能性があります。スクリーンベースのインターフェースを超え、デジタル情報が現実世界に重ね合わされる拡張現実へと移行することで、人間とコンピューターのインタラクションの境界を押し広げるでしょう。  

E. 新しいサブスクリプションティア:Google AI ProとUltra

Googleは、AIサービスの利用を拡大するために、有料サブスクリプションプランを拡充しました。

料金と拡張されたAIサービスプランの利点

従来の「AIプレミアムプラン」は「Google AI Pro」となり、さらに上位のプランとして「Google AI Ultra」が追加されました 。Google AI Proは月額19.99ドル、Google AI Ultraは月額249.99ドルで、いずれもまず米国で提供され、その後全世界に展開される予定です 。  

Ultraプランの独占機能

Ultraプランでは、Veo 3(動画生成)が利用できたり、各AIサービスの利用限度が引き上げられたり、Project Marinerの早期アクセス、YouTubeプレミアム個人プラン、30TBストレージなどが利用できます 。  

AI機能の収益化戦略

Google AI Proと特に高価格帯のUltraプランの導入は、GoogleがAIの高度な機能をサブスクリプションを通じて直接収益化するという明確な戦略を持っていることを示しています 。これは、従来の広告モデルを超えた収益源の多様化を目指すものです。Veo 3、Deep Think、Project Marinerの早期アクセスといった最先端の機能をUltraティアにバンドルすることで、Googleはパワーユーザー、開発者、企業向けのプレミアムなサービスを提供しています。この階層型アクセスモデルは、GoogleがAIの研究開発への多大な投資を回収し、同時に最も高度でリソースを消費する可能性のある機能の展開を管理することを可能にします。  

プラン名月額料金 (USD)主要な機能/利点提供状況
Google AI Pro $19.99 Googleの各種AIサービス利用、高レート制限 米国先行、その後全世界展開
Google AI Ultra $249.99 最高レベルの利用制限、トップティアモデルへのアクセス <br> Veo 3 (動画生成), Deep Thinkモード, 高度なFlowコントロール <br> Project Mariner早期アクセス <br> YouTube Premium個人プラン, 30TBストレージ (Google Drive, Photos, Gmail) 米国先行、その後全世界展開

戦略的示唆と競争環境

Google I/O 2025は、GoogleのAI戦略が新たな段階に入ったことを明確に示しました。その影響は、競争環境全体に波及しています。

GoogleのAIファースト戦略:イノベーションと普及の加速

GoogleのAI戦略は、研究成果を迅速に製品に投入し、広範な普及を促すことに重点を置いています。

迅速な展開とAI利用指標の増加

Googleは、最高のAIモデルを可能な限り迅速に製品に投入していると述べています 。この方針は、AI利用の劇的な増加に表れています。昨年は月間9.7兆トークンであった処理量が、現在では480兆トークン(50倍)にまで急増しました 。Geminiで開発を行う開発者の数は700万人を超え(5倍)、Vertex AIでのGemini利用は40倍に増加しました 。Geminiアプリの月間アクティブユーザー数も4億人を超え、特に2.5シリーズモデルの利用が45%増加しています 。  

「世界モデルAI」ビジョン:包括的アプローチ

Google I/O 2025の根底にあるメッセージは、単に質問に答えるAIではなく、世界を理解し、見て、推論し、文脈の中で行動するAIを構築するというものでした 。この「世界モデルAI」は、現実世界の論理に基づいて結果を予測し、推論を必要とする複雑なタスクを支援できる「意思決定のパートナー」として構想されています 。  

AIハイパーコンピューターとエコシステムの確立

Sundar Pichai氏が「これまでで最も速いペースで出荷している」と述べたことや 、トークン処理量と開発者採用の指数関数的な増加は、Googleの積極的な「AIファースト」戦略の実行を示しています 。この急速なスケーリングは、「AIハイパーコンピューター」という概念によって支えられており、IronwoodのようなカスタムTPUがその中核をなしています 。基盤モデル(Gemini)と特化型ハードウェア(TPU)から、ユーザー向けアプリケーション(AIモード、Project Astra)や開発者ツールに至るまで、この統合されたアプローチは、GoogleのAIを支配的なプラットフォームとして確立することを目指しています。この広範な採用規模は、Googleがより多くのユーザーと開発者がより良いモデルを生み出し、それがさらに多くのユーザーと開発者を引きつけるという自己強化型のエコシステムを構築することに成功していることを示唆しています。  

競合分析:Google対AI大手企業

AI分野における競争は激化しており、Googleは主要な競合他社との差別けを強化しています。

Microsoftとの比較(Build 2025発表)

Google I/O 2025は、MicrosoftのBuild開発者イベントのわずか1日後に開催されました 。これにより、両社のAI戦略を直接比較する機会が生まれました 。MicrosoftもBuild 2025で、AIエージェントに関する重要な発表を行いました。

これには、Copilot Studioにおけるマルチエージェントオーケストレーションが含まれます 。これにより、エージェントがHR、IT、マーケティングといった部門横断で連携し、複雑なタスクを共同で処理できるようになります 。また、Microsoftの「Computer Use」機能により、エージェントはAPIに依存することなく、人間のようにデスクトップアプリケーションやウェブサイトのUIと対話できるようになります 。

Appleとの比較(WWDC 2025の予測)

AppleのWWDC 2025ではAIのアップグレードが期待されています 。しかし、報道によると、Siriの生成AIによる刷新には遅延や困難が生じているとされています 。AppleのAIへの取り組みは、他社に比べて遅れているとの批判もあります 。SiriのAI機能強化は度々延期されています 。AppleはSiriをLLMベースのエンジンでゼロから再構築していると報じられています。しかし、依然としてパフォーマンスの問題に直面しており、WWDC 2025でSiriについて深く言及する可能性は低いとされています 。

OpenAIとMetaとの比較:差別化戦略

GoogleのAI戦略は、OpenAI(ChatGPT, Sora)やMeta(Llama)といった競合他社との激しいAI競争への直接的な対応です 。Googleは、自社の画像・動画生成モデル(Imagen 4, Veo 3, Flow)をOpenAIのSoraに対抗するものとして位置づけています 。ChatGPTが特定のユースケースでより強力である可能性がある一方で、Geminiは一般消費者にとってあらゆるニーズを満たすことを目指しています 。

競争環境を見ると、GoogleとMicrosoftが自律的なタスク実行とマルチエージェントオーケストレーションにおける高度な能力を直接披露していることから、「エージェントAI」をめぐる激しい競争が展開されていることがわかります 。GoogleのProject MarinerやAIモードのエージェント機能は、MicrosoftのCopilot Studioの強化、特にエージェントによる「Computer Use」機能と並行して進められています 。これは、AIがユーザーに代わって行動する未来に対する共通の認識があることを示しています。

対照的に、AppleがSiriの生成AI化に苦戦し 、オンデバイス処理とプライバシーを重視する姿勢は 、他社とは異なる戦略を示唆しています。GoogleとMicrosoftが広範なクラウドベースの深く統合されたエージェント体験を推進しているのに対し、Appleはより統制された、プライバシー重視で、おそらく展開が遅いアプローチを優先しているようです。この戦略の分岐は、ユーザー体験、データプライバシー、開発機会において異なるAIエコシステムを生み出す可能性があり、今後の動向が注目されます。

倫理的考察と責任あるAI開発

AIの進化と普及に伴い、倫理的側面と責任ある開発の重要性が増しています。Googleはこれらの課題に積極的に取り組む姿勢を示しています。

パーソナルコンテキストのプライバシー制御

Googleは、AIモードとGmailなどのサービスを連携させるかどうかをユーザーが明示的に選択できるオプトイン/オプトアウトの制御を提供することで、個人コンテキストのプライバシー保護を強調しています 。

プロンプトインジェクションに対するセキュリティ対策

Gemini 2.5は、間接的なプロンプトインジェクションに対する防御を大幅に強化し、これまでのモデルファミリーの中で最もセキュアなものとなっています 。間接的なプロンプトインジェクションとは、AIモデルが取得するデータ内に悪意のある指示が埋め込まれることで発生するセキュリティ脅威です。Googleは、新しいセキュリティアプローチにより、ツール利用時の間接プロンプトインジェクション攻撃に対する保護率を大幅に向上させたと述べています

Googleの安全性と責任へのコミットメント

Googleは、AIにおける目覚ましい進歩が、技術の改善と安全かつ責任あるリリースへの絶え間ない努力の結果であると表明しています 。特に「Deep Think」のような実験的なフロンティア機能については、広範なリリースに先立ち、さらなるフロンティア安全性評価を行い、安全専門家からの意見を求めるために、信頼できるテスターに限定して提供するという慎重なアプローチをとっています 。また、AI生成メディアのウォーターマーク技術であるSynthIDの活用も、この責任ある開発へのコミットメントを反映しています

Googleが個人コンテキストのプライバシー制御(オプトイン)とプロンプトインジェクションに対するセキュリティ強化を明示的に強調していることは、AIの普及において信頼が極めて重要であることを認識していることを示しています 。AIがより統合され、自律的になるにつれて、データプライバシーとセキュリティ脆弱性(プロンプトインジェクションなど)に関する懸念は増大します。Googleはこれらの問題に積極的に対処することで、ユーザーの信頼を構築し、潜在的な反発や規制上の障害を軽減しようとしています。Deep Thinkのような高度な機能に対する「責任あるAI開発」と「フロンティア安全性評価」への戦略的重点は、Googleが技術的要請と並行して倫理的要請を認識していることを示しており、長期的な市場受容と企業イメージの維持に不可欠です。

まとめ

Google I/O 2025は、GoogleのAIファースト戦略が新たな段階に入り、AIが私たちの日常生活に深く組み込まれる未来への明確なビジョンを示した画期的なイベントでした。Geminiの利用量の爆発的な増加と開発者採用の拡大は、この変革の急速なペースを裏付けています 。

このイベントの核心的なメッセージは、AIが単に質問に答える受動的なツールから、世界を理解し、推論し、自律的に行動する「世界モデルAI」へと進化しているという点にあります 。Project Astraのリアルタイムな世界理解能力と、Project Marinerのウェブ自動化機能は、この進化を象徴するものです 。

AIモードによるGoogle検索の再構築は、パーソナル化され、会話型で、エージェント的なインタラクションを提供することで、ユーザーが情報とどのように関わり、オンラインでタスクを実行するかを根本的に変えることを意味します 。没入型コミュニケーション(Google Beam)や生成系メディアにおける革新と相まって、Googleは人間とAIが深く協調する未来へと舵を切っています 。この新しい時代は、技術的な進歩だけでなく、倫理、安全性、そして信頼に関する重要な議論を呼び起こしており、AI競争の焦点が単なる速度から、より深い理解と責任へとシフトしていることを示唆しています

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事の監修者

株式会社BuzzConnection/株式会社KAGEMUSHA 代表取締役CEO

2021年に独立し、株式会社BuzzConnectionを設立。複数の事業を運営し、現在はAIを活用したWebアプリケーションの開発、運用や生成AIの普及を目的としたセミナー研修の開催など多角的に活躍している。
2023年4月に株式会社KAGEMUSHAを創業。AI事業に大きく事業を展開。
AIアバターやデジタルヒューマン、AIチャットボット、AI研修など幅広い視点からAIの業務効率化を支援。

コメント

コメントする

目次